Text copied to clipboard!
Tytuł
Text copied to clipboard!Inżynier Big Data
Opis
Text copied to clipboard!
Poszukujemy Inżyniera Big Data, który dołączy do naszego zespołu technologicznego i będzie odpowiedzialny za projektowanie, budowę oraz utrzymanie skalowalnych rozwiązań do przetwarzania dużych zbiorów danych. Idealny kandydat powinien posiadać doświadczenie w pracy z narzędziami Big Data, takimi jak Hadoop, Spark, Kafka oraz znać języki programowania takie jak Python, Scala lub Java.
Jako Inżynier Big Data będziesz współpracować z zespołami analitycznymi, inżynierami danych oraz specjalistami DevOps, aby dostarczać wydajne i niezawodne rozwiązania wspierające podejmowanie decyzji biznesowych. Twoim zadaniem będzie również optymalizacja istniejących procesów ETL, integracja danych z różnych źródeł oraz zapewnienie wysokiej jakości danych.
W naszej firmie stawiamy na innowacje, dlatego oczekujemy, że będziesz aktywnie uczestniczyć w projektowaniu architektury danych, wdrażaniu nowych technologii oraz proponowaniu usprawnień. Praca odbywa się w środowisku Agile, co oznacza częste iteracje, współpracę międzyzespołową i szybkie dostosowywanie się do zmieniających się wymagań.
Oferujemy atrakcyjne wynagrodzenie, elastyczne godziny pracy, możliwość pracy zdalnej oraz dostęp do najnowszych technologii i szkoleń. Jeśli jesteś osobą analityczną, lubisz rozwiązywać złożone problemy i chcesz mieć realny wpływ na rozwój produktów opartych na danych – ta rola jest dla Ciebie.
Obowiązki
Text copied to clipboard!- Projektowanie i implementacja rozwiązań Big Data
- Tworzenie i optymalizacja procesów ETL
- Integracja danych z różnych źródeł
- Współpraca z zespołami analitycznymi i DevOps
- Zarządzanie hurtowniami danych i platformami danych
- Monitorowanie i optymalizacja wydajności systemów
- Zapewnienie jakości i spójności danych
- Udział w projektowaniu architektury danych
- Wdrażanie nowych technologii i narzędzi
- Tworzenie dokumentacji technicznej
Wymagania
Text copied to clipboard!- Wykształcenie wyższe techniczne (informatyka, matematyka, inżynieria)
- Minimum 3 lata doświadczenia w pracy z technologiami Big Data
- Znajomość Hadoop, Spark, Kafka
- Biegłość w Pythonie, Scali lub Javie
- Doświadczenie z bazami danych NoSQL i relacyjnymi
- Znajomość narzędzi do orkiestracji danych (np. Airflow)
- Umiejętność pracy w środowisku Agile
- Zdolności analityczne i rozwiązywania problemów
- Dobra znajomość języka angielskiego
- Umiejętność pracy zespołowej
Potencjalne pytania na rozmowie
Text copied to clipboard!- Jakie masz doświadczenie z technologiami Big Data?
- Z jakimi narzędziami ETL pracowałeś wcześniej?
- Czy miałeś okazję projektować architekturę danych?
- Jakie języki programowania znasz i w jakim stopniu?
- Czy pracowałeś w środowisku Agile?
- Jakie masz doświadczenie z bazami danych NoSQL?
- Jak radzisz sobie z optymalizacją wydajności systemów?
- Czy masz doświadczenie w pracy z chmurą (AWS, GCP, Azure)?
- Jakie były Twoje największe wyzwania w pracy z danymi?
- Czy potrafisz pracować samodzielnie i w zespole?